18 resultados para CLINICA MEDICA

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recentemente, l'uso di polimeri a base di acido polilattico (PLA) ha subito un fortissimo incremento, soprattutto per la produzione di dispositivi atti alla fissazione di fratture e osteotomie. Lo scopo della prima parte del mio lavoro di tesi, è stato quello di redigere un documento che contenesse informazioni sulle caratteristiche dell'acido poli-L-lattico (PLLA) e del polimero P(L-DL)LA70:30 (70% di PLLA + 30% di PDLLA), entrambi molto diffusi nelle applicazioni biomediche. A tale scopo, è stata fatta un'analisi dello stato dell'arte sulle proprietà chimico-fisiche, tecnologiche (produzione e sterilizzazione) e sui principali meccanismi di degradazione. La seconda parte, invece, è stata dedicata alla stesura di una review sull'evoluzione della biocompatibilità del PLLA utilizzato in ambito ortopedico. A tale scopo, data la grande quantità di studi presenti in letteratura (in vitro, in vivo, trial clinici), non è stato necessario eseguire nessun test per validarne la biocompatibilità. Tuttavia, nonostante trovino già largo impiego nella chirurgia ortopedica, i polimeri in PLA continuano ad essere oggetto di studio, con l'obiettivo di comprenderne al meglio il comportamento e realizzare dispositivi sempre più sicuri ed efficaci per la salute del paziente. E' proprio in questo ambito di ricerca che si inserisce l'attività sperimentale svolta presso lo stabilimento Lima Corporate di Villanova di San Daniele del Friuli (UD). In particolare, l'ultima parte del lavoro di tesi, è stata dedicata alla valutazione degli effetti che il processo di sterilizzazione ad Ossido di Etilene (EtO), genera sulle proprietà chimico-fisiche e meccaniche della vite CALCANEO-STOP in PLLA, stampata ad iniezione e realizzata da Hit Medica (del gruppo Lima Corporate) nello stabilimento di San Marino (RSM). Per la caratterizzazione chimico-fisica del materiale sono state condotte prove di: densitometria, calorimetria a scansione differenziale (DSC), spettrometria FT-IR e viscosimetria. Per la caratterizzazione meccanica dei dispositivi, sono state condotte delle prove a torsione statica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'elaborato è volto ad analizzare i principi di funzionamento e le molteplici applicazioni dei laser chirurgici nei vari campi della medicina. Viene fatta una classificazione in base alla potenza d'uscita delle apparecchiature, al mezzo attivo utilizzato e alla disciplina medica in cui ne viene fatto uso. Particolare attenzione è posta sui numerosi rischi che potrebbero occorrere e le misure di sicurezza da adottare all'interno di una sala operatoria o di un laboratorio, con l'esempio specifico di alcune schede di verifica funzionale, periodica particolare e di manutenzione conservativa su laser chirurgici e terapeutici, che devono essere completate per superare con esito positivo i vari test di sicurezza.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo studio di tesi è stata eseguita un' analisi storico critica sugli edifici del complesso della Clinica Neurologica di Bologna, sono state valutate le sollecitazioni attraverso una modellazione 3D con software agli elementi finiti SAP2000, e sono state eseguite le verifiche dei meccanismi di collasso globali, locali ed inoltre verifiche di deformabiltà.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tale tesi si prefigge lo scopo di mettere in evidenza l'importanza dell'introduzione della cartella clinica elettronica dispositivo medico, nel reparto ospedaliero di cardiologia. Essa contiene dati inerenti l'intera cronologia degli eventi caratterizzanti il processo di cura del paziente ed assicura un accesso veloce e sicuro ai record clinici di interesse. Grazie al suo sviluppo, è stato possibile facilitare la cura, la diagnosi e la refertazione degli esami. E' necessario operare l'integrazione fra le diverse modalità di acquisizione, permettendo la comunicazione fra loro e col sistema informativo specifico del reparto, così da poter raccogliere velocemente informazioni coerenti e prive di errori, da inserire nella cartella clinica elettronica cardiologica. Per soddisfare tali esigenze di integrazione, è stato introdotto nell'ambito clinico, l'uso dei diversi profili di integrazione IHE, ognuno riguardante uno specifico settore sanitario. L'iniziativa IHE è volta a migliorare l'efficienza dei flussi di lavoro ospedalieri e della pratica clinica, sviluppando la condivisione delle informazioni e l'integrazione fra i sistemi informativi ospedalieri ed i vari software utilizzati dalle modalità, grazie alla gestione ed uso coordinato di più standard clinici già esistenti (per esempio, DICOM e HL7). Perciò, IHE offre una base solida e comune per l'efficace scambio informativo tra i dispositivi ospedalieri di interesse, sebbene essi parlino linguaggi differenti, assicurando così che le informazioni richieste per le decisioni cliniche, siano prive di errori e contraddizioni e facilmente reperibili dal personale sanitario.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi faremo prima una panoramica sui dispositivi medici e, in particolare, andremo ad approfondire l’aspetto del software come dispositivo medico; successivamente andremo ad analizzare il sistema, definito “nuovo approccio”, che regolamenta l’immissione in commercio dei dispositivi medici all’interno del mercato europeo per andare poi ad analizzare la parte sulla gestione del rischio che è fondamentale per raggiungere la conformità soprattutto quando si tratta di dispositivi medici. Nel secondo capitolo, andremo poi ad analizzare il report tecnico IEC 80002-1 del 2009 che fornisce una guida, destinata al software, per l’applicazione dei requisiti contenuti nella normativa CEI UNI EN ISO 14971:2007. Nel terzo capitolo, visto il sempre maggior numero di dispositivi medici dotati di interfaccia di rete andremo ad analizzare il report tecnico IEC 80001 del 2009 per la gestione dei rischi delle reti IT medicali che incorporano tali dispositivi rivolto alle aziende ospedaliere.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In virtù della crescente importanza dell’impiego del software nel settore dei dispositivi medici, come software indipendente (stand-alone) oppure come software incorporato in un altro dispositivo medico, un requisito essenziale per il suo utilizzo è la validazione secondo lo stato dell’arte. La certificazione come dispositivo medico diviene in tal modo fonte di garanzia e di sicurezza per il suo impiego. Il Sistema Informativo di Laboratorio (LIS), supportando il processo operativo dei dispositivi medico-diagnostici in vitro, necessita di una regolamentazione in tale direzione. Il workflow del Laboratorio Analisi, suddiviso in fasi preanalitica, analitica e postanalitica, ha beneficiato dell’introduzione di un sistema informatico in grado di gestire le richieste di esami dei pazienti e di processare e memorizzare le informazioni generate dalle apparecchiature presenti nel laboratorio. Più di ogni altro scenario clinico, il Laboratorio Analisi si presta ad essere organizzato sfruttando un modello di gestione fortemente integrato. Le potenzialità ad esso connesse garantiscono un aumento di produttività, una riduzione degli errori di laboratorio e una maggior sicurezza sia per i professionisti sanitari che per l’intero processo analitico. Per l’importanza clinica affidata al dato di laboratorio, la sua diffusione deve avvenire in maniera veloce e sicura; ciò è possibile se il ritorno elettronico dei risultati al medico richiedente si avvale dello standard HL7, il cui utilizzo è promosso dal modello IHE. La presenza di un unico database sanitario contenente anagrafiche univoche, facilmente aggiornabili, riduce il rischio di errata identificazione del paziente e, in particolare, offre la possibilità di disporre dei risultati di esami precedenti, opportunità particolarmente utile nel delineare il quadro clinico di pazienti cronici. Tale vantaggio e molte altre strategie, in grado di migliorare la qualità dell’assistenza e dell’outcome clinico, permettono di definire il laboratorio clinico come “motore di appropriatezza”.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coniato negli anni‘90 il termine indica lo scavare tra i dati con chiara metafora del gold mining, ossia la ricerca dell’oro. Oggi è sinonimo di ricerca di informazione in vasti database, ed enfatizza il processo di analisi all’interno dei dati in alternativa all’uso di specifici metodi di analisi. Il data mining è una serie di metodi e tecniche usate per esplorare e analizzare grandi set di dati, in modo da trovare alcune regole sconosciute o nascoste, associazioni o tendenze.